AI诈骗,围猎普通人
实习生 | 郭宇翔 巫周雨 沈泳儿
记者|陈媛媛
编辑|彭玮
眼见并不为实。全球范围内,诈骗分子正利用AI技术精准围猎普通人。
去年5月的一份报告显示,迈克菲(McAfee)安全技术公司在对美国、澳大利亚、英国、德国、日本等在内的7个国家的7054人进行了调研,发现其中1/4的成年人曾经历过AI诈骗,而遭遇诈骗的人中,77%蒙受了经济损失。
3月,一名中国香港的职员在一场“多人视频会议”后被骗2亿港元,最后发现这场视频只有他自己是“真人”,其他人都是AI换脸冒充的。
三秒的声音记录就可以复刻声音,社交平台上的照片和视频随时可能被人挪为他用。面容、声音不再由一人独享,真实和信任的围墙被逐渐打破。
在澎湃新闻的采访中,有人复刻了孩子的声音,谎称绑架,用来恐吓身处异地父母;有人准备了精密的熟人借钱剧本,借由AI换脸的技术增加可信度……而在另一端,无论事中还是事后,受害者难以摆脱恐惧、不安乃至多疑。而面对AI诈骗,国内的制度、法律、技术尚有空白需要填补。
被绑架的“女儿”
2023年11月,家住江苏省苏州市相城区的居民刘一宁曾遭遇了一起“AI配音”诈骗。
苏州市公安局相城分局中心商贸城派出所民警唐磊告诉澎湃新闻,那天13点左右,民警接到了刘一宁的报警。电话里,她慌张地表示自己的女儿在英国留学时遭遇绑架,“绑匪”在电话里威胁她,如果拿不出60万赎金,就要杀害她的女儿。
通话中不时传来“女儿”被殴打的惨叫声,刘一宁确信女儿遭遇了绑架,立刻将银行卡里仅有的1万元转入了指定账户。挂断电话后,她越想越害怕,意识到还要59万元才能保证女儿的安全,于是拨通了报警电话,半小时后,民警到达现场。
“你的钱转给谁了?”
“一个中国人,听口音好像是南方人。”
民警随后查看了刘一宁的转账记录,发现汇款失败,对方的账户显示不存在。
此时唐磊确信,这是一起电信诈骗。他解释道:“可能嫌疑人之前涉过案,他还觉得这个银行卡能用,实际上已经被其他公安机关封掉了。”
刘一宁接到电话时,英国尚处夜半时分,与国内有8小时时差。在联系不到女儿的情况下,她完全相信了嫌疑人的恐吓。尽管民警不断安慰、解释,但刘一宁始终相信自己听到的就是熟悉的女儿的声音。
接下来,警方和刘一宁不停地联系女儿的老师和同学。直到1小时后,刘一宁才通过老师得知女儿的消息。听到刚睡醒的女儿亲口报平安,她才确信自己遭遇了“AI配音”诈骗。
除了“AI配音”诈骗,还有欺骗性更强的“AI视频”诈骗。
去年5月29日下午2点多,冯天正在家中浏览抖音,一位使用表哥真人头像的用户给他发来消息,让他添加自己的QQ,称有事和他说。
冯天平时和表哥来往不多,此前,他从未添加过表哥的微信和QQ。添加QQ好友后,“表哥”主动给冯天打了一通视频电话。视频里“表哥”正对摄像头,坐在办公室中,说话声音较轻。7秒后,还没等冯天听清,“表哥”便挂断了电话,“我这边有点卡,打字说吧。”
“表哥”告诉冯天,自己要转一笔钱,但碍于领导身份,不方便以私人账户转款,想让朋友将钱先转到冯天账户上,再由他转到指定账户中。过了一会儿,“表哥”将一份65万元的转款凭证发给冯天,并催促他转款。冯天没有怀疑凭证的真实性,但还是想看到到账通知后再转款。
“银行的信息不会错。”“表哥”向冯天解释大额转账需要24小时才能到账,自己着急用钱,催促冯天垫付。冯天相信了这套说辞,于17点05分向“表哥”指定的账户转入30万元。
36分钟后,“表哥”再次催促冯天将剩余的35万元也转入指定账户中,冯天一时拿不出这么多钱,只好联系朋友借钱。期间他再次打开抖音,发现“表哥”的账号因违反《抖音社区自律公约》,已被系统封禁。冯天这才意识到自己可能遭遇了诈骗。向表哥打电话确认后,冯天选择了报警。
猫鼠游戏
从冯天向商河县当地警方报案的那一刻起,一场猫鼠游戏便开始了。
30万元被骗资金到账后,7名嫌疑人立刻分头行动。一批人到ATM机提取了2万元现金,另一批人到踩过点的金店,用剩余的28万元购买了黄金。此后,他们将大部分赃款转交给了上游的接头人。
另一方,商河县警方通过抖音和QQ,确定了嫌疑人的位置在广东,并通过资金流向,抓获了一名提供银行卡的嫌疑人。根据这一线索和当地的监控录像,警方锁定了其余嫌疑人,于第二、三次行动中将他们全部抓获。
经审讯得知,该诈骗团伙由境外人员实施诈骗,7名嫌疑人负责在国内洗白赃款,并吸引成员入伙。目前,警方已追回被骗资金7万余元。案件的主要嫌疑人谢某,已经以掩饰、隐瞒犯罪所得罪被判处有期徒刑四年六个月。
这是山东省济南市商河县公安局刑警大队三中队中队长张振华讲述的,一起采用AI技术换脸冒充受害者熟人进行网络诈骗的案件。
与以往电信诈骗不同,“AI诈骗更强的真实性利用了大众在确认身份信息时‘眼见为实’、‘耳听为实’的惯性思维。”浙江金道律师事务所律师夏文忠解释道。
赵婷就没有冯天这么幸运了。在被骗走8万元后的第17天,1月22日,赵婷无意间打开抖音,屏幕上突然蹦出了那张熟悉的面孔。她点进主页一看,“妈呀,就是那个人”,骗子用“AI换脸”骗了她。
她今年28岁,在北京从事媒体行业,此前从来没有想过在网络上找对象,家人也从不催婚。她只是爱看抖音上别人发布的相亲聊天截图和红娘博主的相亲评论区,觉得挺有意思的。
2023年12月下旬,她偶然间看到红娘评论区里一则某位“阿姨”的留言,“90年江苏人,身高180,国企上班,京房京户”。看着对方儿子照片里的形象也不错,赵婷产生了兴趣,主动关注了对方并打了声招呼。
赵婷很快就和阿姨的“儿子”沈成伟加上了微信。认识第二天,沈成伟就对她说,“这就是我想要的相亲状态,我觉得我们还挺聊得来的。”
在微信上聊了两天之后,沈成伟以“很少用微信”为由,让赵婷下载了网易灵犀办公软件。赵婷用沈成伟发给她的账号和密码登录,此后都在这上面和他聊天。
沈成伟一直很热情,常常向赵婷主动发送自己的照片和视频,有的是工作照片,有的是在奶茶店或餐厅里的自拍,有的是第三视角拍摄的他正在开车的视频,有的是他在浙江某景点滑雪的视频。
聊了大约十天后,沈成伟告诉赵婷,他打算过完年装修房子,要按赵婷喜欢的风格来装修。赵婷显得有些不知所措,沈成伟回复道:“你是我的结婚对象,后面的大小事都要跟你商量着来。”
有了结婚的承诺,沈成伟接着提出带赵婷理财,攒着以后结婚、出去旅游用。
赵婷说,现在想来,其实沈成伟一直在慢慢给她灌输有关理财的思想。早在他们认识的第二天,他就有意提到自己有个叔叔在证券公司工作,平时会教他理财,他的房贷也是靠理财还清的。
最终,赵婷“投资”了8万元,包括自己的5万存款和3万网贷。在那期间,赵婷正好回湖北老家,和家人提及此事。其中一位堂姐立刻察觉不对劲,报了警。赵婷则向民警坚称自己没有被骗,是家里人多管闲事。
报警当晚,和家人争吵过后,赵婷也有些害怕了。接下来的两天,沈成伟仍在劝说赵婷,把一笔还未到期的5万元定期存款从银行里取出来投资。赵婷这时候已经认定,自己遭遇了“杀猪盘”,对方是骗子。
维权之困
1月11日上午,赵婷赶回北京后,前往家附近派出所报案。她翻出骗子曾发给她的照片,问民警能不能用人脸识别技术把照片里的本人找出来。民警告诉她,除非确定他正在犯罪或是犯罪嫌疑人,否则不能随意使用人脸识别技术查某个人。
下午,赵婷仍未揭穿骗子,继续和对方聊天,并提出见面的想法。对方立刻拨了视频通话过来。赵婷没做好心理准备,心里很害怕,接了两三秒,截了两张图,便立刻挂掉了视频通话。她立刻返回派出所,把视频通话的截图拿给民警看,“他们一看截图就说是假的,AI的”。
等她在抖音上找到照片的原主人之后,才知道骗子发来的照片均是加工过的截图,只是裁剪去水印,用AI增强截图的清晰度和细节。其中一张,骗子还特地使用AI把博主身上的衬衫换了个颜色。而那次骗子拨打来的视频通话,也取自博主前一天发布在抖音上的视频动态。
2月7日,春节前,派出所民警打电话来,告知赵婷已经立案,但她对追回钱款几乎不抱希望了。她没有告诉家人自己究竟被骗了多少,也没有回家过年。每月还贷5500元,对她来说有点压力。于是正职之外,她又找了一份兼职,早上6点起床,晚上10点回家。
整个2月里,她只休息了一天。“可能我从小到大一直比较容易轻信人吧,”赵婷说,“现在跟谁都不聊了。”
浙江理工大学法政学院特聘副教授郭兵在澎湃新闻的采访中列举了诸多个人维权的难点,譬如普通人缺乏法律意识,面对境外平台的违法犯罪,不知道如何提起诉讼;即便有充分证据证明对方侵权,当事人能够获得的赔偿通常较低,维权成本高;在处理网络空间中的证据时,如果当事人取证、保存方式不当,证据难以完善保存等等。
此外,提供“AI换脸”软件的一方事后应当如何定责也是一处难点。夏文忠说,“在AI诈骗的产业链中,上游不法分子完全可以以‘不知情’来逃避法律制裁。”
上述案件中的“AI配音”、“AI换脸”都属于“深度伪造(Deepfake)”的范畴。
“让狗狗跳科目三也是(深度伪造)。”复旦大学计算机科学技术学院教授张谧解释,深度伪造狭义上专指AI换脸,广义上包含了虚假的新闻、文本、音频、图像、视频等等。
“AI换脸”真正进入大众视野是在2017年,名为“deepfakes”的Reddit用户将知名女性的脸替换进了色情影像里。此后,“Deepfake”便被用来指代通过AI生成的图片和视频。
随着深度伪造的兴起,换脸成本大幅降低。中国科学技术大学网络空间安全学院特任副研究员周文柏向澎湃新闻介绍,在这之前,依靠计算机图形学的换脸技术已应用于影视行业,如电影《速度与激情7》中呈现了去世的演员保罗·沃克。
相较国外,国内应用“AI换脸”的时间更晚。民警张振华说,“AI换脸”技术近两年才开始流行,却很快被用于违法犯罪。
何以防范
你的电话突然响起。接通后,对方开始向你推销房地产、培训班、流量套餐……你对这些不感兴趣,没说话,直接挂断了电话。
恭喜你,成功躲过了一次潜在的信息采集。
“有时候接个骚扰电话,不会很长,可能就把你的声音录进去了,建模合成,就能创造出用于诈骗的声音。”民警唐磊介绍了一种不法分子获取声音的途径。
这时又有一通视频电话打入,屏幕那端是你的亲属、同学、朋友,看到熟悉的面孔,你毫无戒备,直到对方和你提到钱。
“只要谈到钱就一定要提高警惕。”AI技术工程师、AI反诈博主徐欣说,向对方确认身份时,聊的事情要“足够隐私”,“不是你们在网上已经聊过的、有痕迹的事情,这种信息也可能会被对方窃取。”
尽管技术有所更新,但冒充熟人实施精准诈骗的套路仍未改变。民警张振华解释道,嫌疑人作案的电脑里有大量受害者的照片、工作单位等个人隐私信息。如果这时嫌疑人冒充上下级关系进行诈骗,同样令人防不胜防,例如冒充医疗机构的负责人,向药店店主借款,或冒充城建部门的领导,向施工单位的工作人员借款。受害者往往不会和领导核实,最终上当受骗。
其实,“AI换脸”在技术上“有很大局限性”,研究员周文柏说,“现在深度伪造还是趋向于平面伪造”,可以让对方躺下、站起来、转圈、向不同范围大角度倾斜脸部、挤压五官、长时间闭眼,通过人脸形变判断图像真伪。
另外,抖音、小红书、B站、微信等平台都要求用户上传AI生成的内容时做标记,否则会予以限流。这背后是2023年1月施行的《互联网信息服务深度合成管理规定》,其中要求“深度合成服务提供者对使用其服务生成或者编辑的信息内容,应当采取技术措施添加不影响用户使用的标识”。这些标识一方面可以提醒用户,另一方面可以追溯内容来源。
即便不用于诈骗,使用AI生成换脸视频,也可能涉及民事侵权。夏文忠解释,利用“AI换脸”技术对图片或视频中的目标人脸进行针对性置换,则涉及《民法典》第1019条规定的“任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。”通过“AI换脸”技术实行侮辱、诽谤行为,给他人的社会评价造成负面影响,则可能构成对他人名誉权的侵犯。
与深度伪造的内容相同,传播引介深度伪造相关的技术,也需要慎之又慎。
“科技行业应该负责任地发展AI。”教授张谧强调了谨慎开源的重要性,“很强大的模型不适合开源。国外很多开源网站禁止分享深度伪造的软件、代码。”她认为,即便要开源,也要事前做好安全评测,预设各类场景,分阶段地开源文档、组件和接口,并在开源后严格管控。
在民警张振华的经验中,当事人在知道“AI换脸”软件可能会被用于违法犯罪的情况下,依然向他人提供软件,就会涉嫌非法利用信息网络罪和帮助信息网络犯罪活动罪。
“因为他们搞AI的都明白,我做个虚假APP,可以达到什么效果,图像是真是假。他们可能不承认,但是通过他们的工作环境、学历、认知,也可以认定是否参与违法犯罪。”民警张振华说道。
然而,不论如何监管,AI还没有像科幻小说描绘得那样拥有自我意识,犯罪的渊薮依旧指向了操刀的人。正如徐欣所说,“其实AI跟诈骗是分离开的两个词,AI只是一项技术、工具。就算没有AI,这也是犯罪。”
(为保护隐私,文中赵婷、沈成伟、冯天、刘一宁为化名。感谢刘保君为采访提供的帮助。)
微信编辑|溏心蛋
推荐阅读
澎湃新闻人物栏目出品
版权所有,转载请留言